Poderá uma “Inteligência Artificial” ser médica

A Inteligência Artificial (IA) chegou à Saúde. E veio para ficar! Em diversas partes do mundo, a IA já é utilizada para otimizar processos, melhorar a precisão dos diagnósticos e expandir o acesso a cuidados, particularmente em áreas carenciadas ou com escassez de recursos. Desde os algoritmos que detetam anomalias com mais precisão do que especialistas humanos, até às ferramentas avançadas de monitorização remota, o potencial transformador é imenso. No entanto, também existem riscos significativos, tanto para a saúde do paciente quanto para a proteção dos seus direitos fundamentais. Para que possamos usufruir dos benefícios da IA na Saúde, é essencial assegurar o seu uso ético, seguro e justo. Nesse processo, os médicos devem estar no centro da tomada de decisões, garantindo que a tecnologia seja aplicada de forma responsável e alinhada com os melhores interesses dos pacientes.
No contexto clínico, a IA tem mostrado seu valor em áreas como a triagem nas urgências, onde é utilizada para priorização de casos e melhoria da gestão das listas de espera. Além disso, a IA também tem sido fundamental na análise de imagens médicas, com sistemas capazes de identificar padrões e anomalias com uma precisão impressionante. Um estudo publicado em 2019 comparou o desempenho de um algoritmo de IA com radiologistas na detecção de nódulos pulmonares malignos em radiografias digitais. O algoritmo de IA apresentou uma sensibilidade de 94,1% (1) na detecção de nódulos malignos, comparável à dos radiologistas.
Para além disso, sistemas como o Med-PaLM 2 da Google e o GPT-4 da open-AI, conhecidos por seu desempenho em tarefas cognitivas complexas, têm demonstrado capacidades semelhantes a candidatos à especialidade médica em várias áreas.
Apesar do entusiasmo, os riscos da IA na saúde são reais e significativos. Quando treinada com dados enviesados, a IA pode perpetuar ou até agravar desigualdades já existentes. O caso descrito por Gerke et al. (2020) de um algoritmo que subestimava o risco de doentes negros é um alerta. O JAMA Internal Medicine (2023) relatou um viés algorítmico em sistemas de triagem usados nos serviços de urgência, que penalizavam desproporcionalmente minorias étnicas. Soma-se a isso o fenómeno de “automation bias”, em que médicos confiam cegamente nas sugestões da IA, abdicando do seu julgamento clínico.
Diante deste risco, é essencial que todos os médicos desenvolvam competências de liderança, comunicação e pensamento crítico, fundamentais para tomar decisões informadas e assertivas. A liderança permite uma visão integrada do processo, enquanto as soft skills, como a empatia, comunicação e gestão de equipas, são cruciais para garantir que a interação com a IA seja feita de forma humana e colaborativa. O julgamento crítico assegura que a tecnologia é utilizada de forma ponderada, com a devida consideração da relação risco/benefício, ao avaliar cuidadosamente as vantagens e os potenciais impactos negativos. É também relevante, neste domínio, introduzir o conceito de segurança psicológica, deve ser promovido e encorajado que os médicos questionem as sugestões da IA sem receio de consequências, o que promoverá um ambiente de tomada de decisão mais seguro e eficaz na Saúde Digital.
Muitos sistemas, baseados em deep learning, continuam a ser verdadeiras caixas negras, sem transparência sobre como se chega à decisão. Embora iniciativas como o “Explainable AI” da Comissão Europeia estejam em curso, a sua implementação clínica ainda é limitada. A transparência e qualidade dos dados utilizados nos modelos IA é fundamental para conseguir compreender a atuação do modelo. A Ordem dos Médicos deve assumir um papel ativo, vigilante e moderador, alinhado com as normas internacionais, assegurando que a utilização da IA na saúde obedeça a critérios éticos, científicos e de segurança.
A inteligência artificial não eliminará a função médica, mas pode esvaziar a sua essência, se o profissional abdicar do espírito crítico e da responsabilidade clínica. A implementação de sistemas de IA no campo clínico alterará inevitavelmente a forma como definimos o ato médico. Embora a IA possa fornecer informações valiosas, a decisão final sobre o tratamento ou diagnóstico continua a ser da responsabilidade do médico. Uma das questões centrais é determinar quem deve ser responsabilizado pelos erros ou falhas de um sistema de IA: o médico que o utilizou, a entidade que desenvolveu o sistema ou o hospital que o implementou? Devemos defender que cada sistema de IA tenha um diretor clínico responsável pela sua supervisão e pelo acompanhamento da sua implementação?
Por outro lado, assim como acontece com os medicamentos, os sistemas de IA terão indicações clínicas, com diferentes sensibilidades e especificidades de acordo com o contexto, e efeitos laterais. A monitorização e gestão dos efeitos laterais são essenciais para garantir que a implementação da IA não acarrete riscos inesperados aos pacientes. O acompanhamento contínuo e a adaptação dos modelos de IA serão cruciais para assegurar que os sistemas permaneçam seguros, eficazes e alinhados com a prática clínica.
O enquadramento legal europeu tem dado passos firmes. O AI Act da União Europeia, aprovado em 2024, estabelece que sistemas de IA aplicados à saúde são considerados de “alto risco” e, por isso, sujeitos a exigências rigorosas: supervisão humana, explicabilidade, auditorias, mitigação de enviesamentos e registo centralizado. Já nos EUA, embora a FDA tenha aprovado mais de 500 algoritmos com aplicação médica, uma análise recente no NEJM AI (2024) revelou que apenas 5% desses sistemas tinham validação com ensaios clínicos randomizados, levantando preocupações quanto à solidez científica das aprovações.
O Plano Estratégico da Saúde Digital (2023) prevê a criação de um repositório nacional de algoritmos validados, mas a medida continua por implementar. Portugal ainda não dispõe de um organismo notificado, exigido na aprovação de algoritmos de IA pelo AI act, o que obriga as entidades nacionais a recorrerem a outros países europeus. Também a formação médica em Portugal está aquém: não existem módulos formais de literacia digital e de IA, ao contrário do que já sucede na Alemanha ou na Finlândia desde 2021.
Por outro lado, muitas tentativas de implementar novas tecnologias em saúde falham não por falta de mérito ou eficácia, mas devido a modelos de financiamento e organização que, paradoxalmente, penalizam as instituições que buscam otimizar a utilização dos cuidados de saúde. Assim, é responsabilidade dos decisores tomar medidas que promovam uma gestão mais eficiente dos recursos e incentivem a adoção de inovações tecnológicas no setor.
Perante esta realidade, a Ordem dos Médicos deve assumir uma posição ativa e estratégica. Inspirando-se em exemplos como o da American Board of Preventive Medicine ou da Faculty of Clinical Informatics do Reino Unido, para promover a criação de uma competência formal em Informática Clínica e Saúde Digital. Mais do que acompanhar passivamente o ritmo da inovação, a Ordem dos Médicos deve ser agente regulador, emitindo pareceres técnicos, promovendo formação certificada e exigindo que todos os algoritmos utilizados no SNS sejam validados de forma independente. Deve ainda assumir o papel de voz representativa junto das estruturas reguladoras nacionais e europeias, assegurando que a ética e o julgamento clínico permaneçam no centro da prática médica.
A transformação digital não pode limitar-se ao domínio tecnológico deve abranger também os domínios cultural e ético. A IA, por mais poderosa que seja, deve ser entendida como instrumento, nunca como substituto. A prática médica exige ciência, sim, mas também empatia, discernimento e humanismo. É neste equilíbrio que reside o verdadeiro progresso.
O programa da Lista C, Ordem com Confiança para a SRNOM tem como um dos seus pilares a transformação digital da saúde, com o compromisso de tornar essa transição o mais segura e fluida possível para todos os envolvidos. A equipa da Lista C está comprometida em garantir que os médicos recebam a formação necessária e que as ferramentas digitais sejam implementadas de forma ética e responsável. Para que a digitalização seja um sucesso, é crucial que se minimize qualquer impacto negativo tanto nos profissionais de saúde quanto nos pacientes. Com a liderança da Ordem, e com a dedicação da Lista C, podemos garantir que a inteligência artificial e outras tecnologias avancem de forma a melhorar a qualidade dos cuidados, sem comprometer a confiança, a segurança e a humanidade no exercício da medicina.
(1) Yoo H, Kim KH, Singh R, Digumarthy SR, Kalra MK. Validation of a Deep Learning Algorithm for the Detection of Malignant Pulmonary Nodules in Chest Radiographs. JAMA Netw Open. 2020;3(9):e2017135. doi:10.1001/jamanetworkopen.2020.17135
observador